Teхнологичният свят беше разтърсен от изненадващото отстраняване на Сам Алтман от собствената

...
Teхнологичният свят беше разтърсен от изненадващото отстраняване на Сам Алтман от собствената
Коментари Харесай

Заплаха за човечеството: Какво е проектът Q*?

Teхнологичният свят беше разтресен от изненадващото премахване на Сам Алтман от личната му компания OpenAI и от неочаквания поврат с връщането му в борда.

Стартъпът направи гражданска война в всеобщата приложимост на ChatGPT – езиков модел, основан на изкуствен интелект, който безапелационно възпроизвежда човешко слово и може да води разговор.

Мотивите за уволнението му по този начин и не станаха напълно ясни. Но ден след завръщането му отпред на OpenAI, организация „ Ройтерс “ заяви за основни събития, които биха могли да хвърлят светлина върху събитията на 17 ноември.

Непосредствено преди освобождението му, няколко чиновници на OpenAI изпращат писмо до борда на шефовете. В него те предупреждават за огромно изобретение в региона на изкуствения разсъдък, което съгласно тях може да заплаши човечеството, оповестява организацията, като се базира на осведомени със случилото се.

Според източниците, точно писмото е един от факторите, довели до отстраняването на Алтман. OpenAI отхвърля коментар по тематиката, само че един от чиновниците признава за вътрешно известие до чиновниците за проект, наименуван Q* (или Q Star), и писмо, изпратено до борда на шефовете.

Какво е план Q*?

Някои чиновници в OpenAI считат, че Q* може да се окаже пробив в търсенето на така наречен неестествен общ разсъдък (AGI). Такова е и мнението на един от чиновниците на компанията, който приказва пред „ Ройтерс “, представена от " Булевард България ".

OpenAI дефинира общия изкуствен интелект като автономни системи, които надминават хората в множеството стопански значими задания. Източник, поискал анонимност, споделя, че новият AI-модел е съумял да реши обособени математически задания, които имат единствено един правилен отговор. Математическите умения на логаритъма към момента са на равнището на материала, преподаван в главното учебно заведение. Самият факт, че се оправя с сходни задания обаче, кара разработчиците да са доста оптимистични за бъдещия триумф на Q*.

Агенция „ Ройтерс “ отбелязва, че екипът не е имал опция без значение да ревизира опциите на плана.

С благоприятни условия на равнището на човешкия разсъдък

Изследователите считат, че математиката е лимитът на развиването на генеративния изкуствен интелект, върху който е основан ChatGPT.

Моделът е добър в писането и превода на езици. Той предвижда идната дума на база на статистическите данни, само че отговорите на еднакъв въпрос могат да варират в необятни граници и да дадат неверни отклонения - така наречен " халюцинации ".

Овладяването на математиката, където правилният отговор е единствено един, допуска, че изкуственият разсъдък ще има по-големи качества за размишление, наподобяващи човешкия разсъдък.

За разлика от калкулатора, който може да взема решение стеснен брой интервенции, общият изкуствен интелект може да обобщава, да учи и да схваща.

Q* наподобява като композиция сред два термина в компютърните науки:

А* (a star) е логаритъм за търсене на най-оптималния път сред начална и последна точка в една конструкция от данни(например, избира отговора, намирайки най-късото разстояние, най-бързото време, и др.).

Q-learning е различен термин, който отбелязва модел на самообразование посредством проба-грешка. Моделът се тренира да имитира метода, по който децата се научават на нови умения. Добрите дейности се награждават и поддържат, а неприятните дейности се санкционират.

" Q " отбелязва " качеството " на взетото решение.

* отбелязва " най-благоприятен избор ".

Ако в действителност има пробив в смесването сред двата модела, теоретично той би могъл да се употребява за основаване на изкуствен интелект, който се самопоправя и да се учи самичък, употребявайки системи, основани на ясни правила - математика или логичност.

Възможно е новият модел да може самичък да прави оценка какъв брой близко е до верния отговор и да употребява тази информация, с цел да стига до правилния резултат по-бързо и с по-малко стъпки. Именно за мощта и евентуалната заплаха на изкуствения разсъдък предизвестяват част от екипа на OpenAI в писмо до борда на шефовете директно преди Сам Алтман да бъде освободен.

Източниците на „ Ройтерс “ по този начин и не показват съответните опасности, само че тематиката от дълго време се разяснява измежду учените.

Едно от опасенията е какво ще се случи, в случай че технологията " поумнее " дотам, че реши, че унищожаването на човечеството е в неин интерес.

В писмото се оповестява още, че е образуван екип от учени от разнообразни звена, който би трябвало да изследва усъвършенстването на моделите, основани на изкуствен интелект, тъй че в даден миг те да могат да разсъждават и евентуално да правят научна активност.

Преди седмица, на среща на върха на Азиатско-тихоокеанското икономическо съдействие в Сан Франциско, Алтман разгласи, че се обрисува огромен прогрес в региона на изкуствения разсъдък.

Ден по-късно бордът на шефовете уволни Сам Алтман, отбелязва „ Ройтерс “ в умозаключение. Изненадващото премахване на Алтман на 17 ноември хвърли OpenAI в безпорядък. Решението на борда беше взето с поддръжката на един главните мотори зад ChatGPT Иля Сутскевер. Впоследствие той се извини за решението и се включи в писмото на чиновниците с апел за връщане на Алтман отпред на компанията. Близо 700 души от OpenAI обявиха във въпросното писмо, че са подготвени да изоставен, в случай че бордът на шефовете не върне Алтман.

Така Алтман се завърна отпред на ОpenAI само пет дни по-късно и разгласи, че ще ускори партньорството с Microsoft в региона на изкуствения разсъдък.

Последвайте канала на
Източник: novini.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР